LA CUESTIÓN DE LA
HIPERCOMPUTACIÓN

“No hay duda de que el estudio de la hipercomputación conducirá a muchos importantes resultados teóricos en informática, filosofía, matemáticas y física” (Toby Ord)



La Computación y la Tesis Church-Turing

Como no es posible capturar el concepto de computación, se define la computación como todo aquello que puede ser computado por una máquina de Turing (MT). Computabilidad es lo mismo que proceso en una MT. La llamada Tesis de Church-Turing (TCT) afirma: “Todo algoritmo o procedimiento efectivo es computable por una máquina de Turing (es Turing-computable)”.

Un procedimiento efectivo o computación efectiva es la que puede realizar un humano con lápiz y papel. Es una noción informal. Precisamente, la formalización de la noción de computación es la MT. De esta forma, Turing formalizó un concepto que hasta entonces era ambiguo.

Hay muchos ejemplos de computaciones efectivas. Pôr ejemplo, las operaciones aritméticas elementales, el algoritmo de Euclides para obtener el máximo común divisor de dos números, el algoritmo para obtener el mínimo común múltiple, etc.

Efectivo es sinónimo de mecánico, y tiene las características siguientes: La TCT, como toda tesis, no es demostrable. Pero sí es falsable en el sentido de Karl Popper: basta con encontrar un algoritmo o método efectivo que no sea computable por una MT.

La TCT se suele justificar apelando a 3 razones:
  1. Los diversos intentos de formalizar la noción de computación han producido formalismos computacionalmente equivalentes a una MT.

  2. La MT conecta la computabilidad abstracta y la computación física, por lo que la MT captura bien la noción intuitiva de computación.

  3. No hay contraejemplos conocidos. Es decir, no se ha encontrado ninguna función computable que no pueda computarse por una MT. Ningún desarrollo teórico ha conseguido refutar la TCT, por lo que la MT es considerada como la ley más fundamental de la computación, ley que establece los límites de lo que es computable y lo que no.

    Un ejemplo de función no computable es el “problema de la parada” (halting problem): determinar si una MT con una entrada llegará o no a obtener un resultado final, es decir, que la máquina se parará.
Por estas razones, la mayoría de los lógicos y matemáticos aceptan la TCT como una tesis razonable y adecuada.


La falacia de la TCT, según Copeland

Según Jack Copeland [1998, 2000], la tesis Church-Turing ha sido malinterpretada. Es lo que denomina “la falacia Church-Turing”:
La Hipercomputación

Se denomina “hipercomputación” −un término acuñado por Jack Copeland en 1999− a un hipotético modelo computacional que vaya más allá de una máquina de Turing universal (MTU). Una MTU es una MT en la que el programa de una MT específica, junto con sus datos de entrada específicos, se almacena en la cinta de memoria y que es capaz de ejecutarse. Una MTU puede emular a cualquier MT particular. En este sentido, una MTU puede considerarse una hipermáquina o supermáquina abstracta. Hoy día, los ordenadores digitales son, en esencia, MTU’s.

Una tarea (proceso o cálculo) que no puede realizar una MTU es calificada como “incomputable”. Una hipotética máquina de hipercomputación podría (paradójicamente) computar lo incomputable.

La hipercomputación es un área de investigación interdisciplinaria que afecta a una gran variedad de campos, principalmente informática, matemática, inteligencia artificial, física, psicología y filosofía. En general, se suele considerar que la MT representa el límite computacional a nivel físico, pero este tema no está suficientemente claro, por lo que se considera un tema abierto a la posibilidad de que la máquina que supere este límite llegue a construirse.

La hipercomputación es un campo emergente, un campo relativamente nuevo y muy activo. Sus investigadores intentan romper la denominada “barrera de Turing”, tanto a nivel teórico (mental) como práctico (construibles a nivel físico). Independientemente de que una máquina de hipercomputación llegue a construirse o no, es un tema de enorme interés porque los modelos teóricos aportan muchas ideas sobre los fundamentos de la matemática y la informática, conectando con lo profundo a nivel filosófico y psicológico. Según Toby Ord [2002], la actual teoría de la computación está en una situación similar a la de la geometría antes de la aparición de las geometrías no euclidianas. Se consideraba que la geometría euclídea era la única verdadera porque era la geometría del mundo físico. Las geometrías no euclidianas fueron calificadas inicialmente como “imaginarias” para distinguirlas de la “verdadera” geometría. Estas nuevas geometrías pertenecían a un reino mental o teórico, independientemente de que tuvieran o no una realidad física.

Así que puede establecerse una analogía entre: Las geometrías no euclidianas condujeron a una nueva y generalizada visión de la geometría. Gracias a ellas, Einstein pudo postular en 1915, con su teoría de la relatividad generalizada, que la geometría del universo no es euclídea. De la misma manera, los nuevos modelos computacionales generalizados de hipercomputación deberían conducir a nuevas ideas y resultados.


La conexión entre el teorema de Gödel y la tesis de Church-Turing

En los años 1930s aperecieron dos grandes resultados “negativos” respecto a las limitaciones de la matemática y la informática.
  1. El teorema de incompletud de Gödel.
    Es un teorema metamatemático que afirma que en todo sistema axiomático formal que contemple la aritmética de los números naturales, hay sentencias indecidibles, es decir, que no son derivables de los axiomas, por lo que no es posible demostrar su verdad o falsedad.

    Este teorema se ha interpretado erróneamente, al asociarlo con limitaciones de la mente humana, pues supuestamente habría sentencias incognoscibles para la mente humana. Realmente es solo una limitación de los sistemas axiomáticos formales, pues la mente no es un sistema axiomático formal, sino un sistema semántico basado en grados de libertad.

  2. La tesis de Church-Turing.
    Esta tesis puso límites a lo computable al afirmar que solo es computable lo que puede realizar una MT o el cálculo lambda de Church, pues ambos sistemas, aunque conceptualmente son distintos, son computacionalmente equivalentes y representan el máximo poder computacional posible.

    Esta tesis se ha aplicado a las leyes del universo, con tres posibilidades:

    1. El universo es un computador regido por las limitaciones de una MT, por lo que es imposible construir un dispositivo físico con mayor poder computacional que una MT, porque de lograrlo, iría contra las leyes del universo.

    2. El universo no es un computador (las leyes del universo no son computables), por lo que la MT no es aplicable al universo.

    3. El universo es un hipercomputador, por lo que sería posible construir una máquina más poderosa que una MT.
Ambos resultados teóricos están conectados, pues existe una analogía entre funciones no computables por una MT y sentencias indecidibles por un sistema axiomático formal.


Modelos Propuestos de Hipercomputación

Se han propuesto modelos alternativos para intentar superar las limitaciones de la MTU, entre ellas las siguientes.


MT con oráculo

Se puede decir que la hipercomputación fue introducida por el propio Turing, pues dos años después de presentar su máquina teórica, en su tesis doctoral “Systems of Logic Based on Ordinals” (supervisada por Alonzo Church) propuso un modelo computacional que iba más allá de su máquina teórica original: la “O-machine”, una MT con oráculo (MTO) [Turing, 1938]. Una MTO es una MT con un grado de libertad adicional: la máquina es asistida por un oráculo a quien se le pueden hacer preguntas y cuyas respuestas formarían parte del proceso computacional. Turing no especificó la naturaleza de ese oráculo. Hoy día, el trabajo de Turing con las MTO ha sido prácticamente olvidado.


MT acelerada

Un modelo de hipercomputación que intenta superar los límites de una MT es el de una MT acelerada (MTA). Se supone que en los modelos clásicos de computación, cada operación es ejecutada en una cierta unidad de tiempo. Sin embargo, es concebible pensar en un modelo de computación que ejecute su primera operación en una unidad u de tiempo, la segunda operación en u/2, la tercera en u/4, la cuarta en u/8, y así sucesivamente. Esta máquina ejecutaría infinitas operaciones en un tiempo finito (2u), lo que le permitiría computar cualquier problema no computable, como el problema de la parada.

Pero implementar a nivel físico una MTA es imposible porque tropezaríamos con el tiempo de Planck (≈ 1,4·10−43 segs.), el tiempo que tarda la luz en recorrer la distancia de Planck (≈ 1,6·10−35 m.). Si suponemos que u es un segundo, el paso 101 de una MTA requiere 2−100 segs., que es menor que el tiempo de Planck. Por lo tanto, la implementación de una MTA es imposible a nivel físico (externo), pero posible en a nivel mental (interno) donde no existe el tiempo. Es una situación análoga a la paradoja de Aquiles y la tortuga: a nivel físico, Aquiles alcanza a la tortuga, pero a nivel mental (lógico o teórico) nunca la alcanza.


Interactividad

Algunos autores comparan los algoritmos con la interactividad [Wegner, 1997], afirmando que la computación interactiva es más potente que una MT.

En la interactividad no se busca un resultado. Es solo una reacción o interacción con el entorno en el que está situado un sistema. Todos los inputs posibles no están especificados y pueden depender de resultados intermedios o fuentes externas.


Super-recursividad

El término “super-recursividad” fue acuñado por el matemático Mark Burgin [1999, 2004] para referirse a algoritmos complejos que no pueden implementarse en una MT. Para Burgin, los algoritmos recursivos pueden implementarse en MTs, pero los algoritmos super-recursivos no. Los algoritmos recursivos se asocian con la computación, y los algoritmos super-recursivos con la hipercomputación, algoritmos que son más eficientes que los algoritmos tradicionales recursivos.

Según Burgin, los algoritmos super-recursivos suministran un modelo más próximo al mundo real. Pone el ejemplo de la función de Ackermann: Burgin, en su libro “Super-recursive algorithms” [2004] desarrolla una teoría en la que presenta varios modelos matemáticos super-recursivos. Uno de ellos es la MT inductiva: una MT que computa indefinidamente, sin pararse, y produce un resultado de vez en cuando. La razón de no pararse estriba en que en algunos casos no es posible saber si se ha obtenido o no el resultado.

La salida puede ser de muchos tipos. Si las sucesivas salidas no cambian, se consideran el resultado de la computación. Si la salida es repetitiva oscilante entre dos o más estados, se considera (o equivale) a una parada.

Las MTs inductivas no deben confundirse con las MTs que computan indefinidamente y que no producen ningún resultado.

Según Burgin, existen tres posibles enfoques hacia la hipercomputación:
  1. El enfoque hardware. Con nuevos elementos hardware más eficientes o con más elementos operando en paralelo.

  2. El enfoque software. Con nuevos métodos computacionales.

  3. El enfoque “infware”. Está basado en la creación de nuevas estructuras de información que potencien el proceso de la información.

Computación cuántica

La computación cuántica es un modelo de computación teórico (o paradigma computacional) inspirado en las propiedades de las entidades cuánticas de tener superposición de estados. Mientras que un computador clásico equivale a una MT, un computador cuántico equivale a una “MT cuántica”, un concepto creado por David Deutsch [1985], uno de los principales fundadores de la computación cuántica.

La computación cuántica se basa en el uso de qubits (abreviatura de “quantum bits”). Un bit tiene un estado entre dos posibles (0 y 1). Un qubit tiene simultáneamente diferentes grados de ambos estados en superposición coherente. Con n bits hay 2n estados posibles (excluyentes entre sí). Con n qubits hay 2n estados simultáneos, donde cada estado es un grado de un estado básico, lo que permitiría realizar 2n operaciones en paralelo.

Los dos estados de un qubit se representan como |o⟩ y |1⟩. Un qubit es una combinación lineal |x = c0|0⟩ + c1|1⟩ de estos dos estados, en donde los coeficientes c0 y c1 son números complejos (llamados amplitudes) que cumplen la condición |c0|2 + |c1|2 = 1, en donde |ci| es el módulo del número complejo ci. El módulo de un número complejo a+bi es (a+bi)(abi) = a2+b2. Los valores |c0|2 y |c1|2 se interpretan como las probabilidades de que, al hacer una medición, el sistema salte al estado |o⟩ y el |1⟩, respectivamente.

Un ejemplo de qubit es (1/√2) |0⟩ + (1/√2) |1⟩. Se cumple que (1/√2)2 + (1/√2)2 = 1.

Matemáticamente, un qubit es un elemento de un espacio de Hilbert de 2 dimensiones. Un espacio de Hilbert de n dimensiones es un espacio vectorial donde los vectores son combinaciones de los vectores básicos mediante números complejos. Un espacio de Hilbert puede ser de dimensión infinita. Un sistema cuántico de n qubits forma un espacio de Hilbert de 2n dimensiones. La llamada “esfera de Poincaré” representa todos los posibles valores de un qubit, que son los puntos de la superficie de la esfera, que son combinaciones de los estados básicos |0⟩ y |1⟩. Estos estados básicos corresponden a los polos de la esfera.

Un ejemplo de qubit es el espín de un átomo. El espín se asocia con el movimiento de rotación alrededor de un eje de la partícula. La rotación puede ser en un sentido o en el opuesto. El qubit es la superposición de ambos estados.

Cuando tenemos 2 qubits, tenemos 4 estados entrelazados: |00⟩, |01⟩, |10⟩, |11⟩. El estado de un sistema es una combinación lineal (superposición) de estos 4 estados: c0|00⟩ + c1|01⟩ + c2|10⟩ + c3|11⟩. Cuando tenemos n qubits, hay 2n estados entrelazados.

La computación cuántica se basa en puertas lógicas cuánticas (o, simplemente, puertas cuánticas). Una puerta cuántica es una función que tiene como argumento uno o varios qubits. Se diferencian de las puertas lógicas clásicas por 3 características: 1) son probabilísticas (las clásicas son deterministas); 2) son reversibles (la mayoría de las puertas lógicas clásicas no lo son); 3) el número de qubits de entrada es siempre el mismo que el de salida (en las clásicas, la salida es siempre de un bit). Las puertas cuánticas se representan mediante matrices. Para n qubits, la dimensión de la matriz es 2n.

Ejemplos de puertas quánticas simples (de 1 qubit) son: Un conjunto de puertas universales es un conjunto de puertas tales que cualquier otra puerta se puede definir como una combinación finita de ellas. En general, un proceso cuántico es una secuencia de m puertas lógicas actuando sobre n qubits de entrada. Todos los algoritmos cuánticos son probabilísticos porque actúan sobre qubits que son probabilísticos.

Todavía no se ha resuelto el problema de encontrar un hardware ideal para la computación cuántica, aunque se han propuesto diferentes sistemas. La razón es que nadie ha sido capaz de crear una versión suficientemente fiable del qubit, el bloque básico de construcción de un ordenador cuántico. Para que una superposición (de uno o varios qubits) sea estable, el sistema debe estar protegido del exterior y refrigerado porque las superposiciones son frágiles y se colapsan (el sistema entra en un estado de decoherencia).

Hitos de la computación cuántica han sido: La computación cuántica recibió un gran impulso con el algoritmo de Peter Shor [1994]: un algoritmo cuántico para descomponer un número natural en factores primos en un tiempo del orden de (log n)3 y de espacio del orden de log n. Shor demostró que su algoritmo podía acelerar exponencialmente la computación clásica de la factorización de un número natural. El algoritmo de Shor requiere recursos temporales de tipo polinómico, frente a los clásicos, que son de tipo exponencial. Por ejemplo, para un número de 300 dígitos, el mejor algoritmo clásico requiere 1024 pasos. El algoritmo de Shor requiere “solo” 1010 pasos. La factorización de un número de 1000 dígitos tardaría miles de millones de años en un computador clásico. Un ordenador cuántico lo haría en pocos minutos, pudiendo así romper criptosistemas basados en la factorización de dos números primos grandes (como el sistema de clave pública como RSA).

Al algoritmo de Shor siguieron otros algoritmos cuánticos orientados a resolver problemas algebraicos y combinatorios computacionalmente complejos. Destaca el algoritmo de Lou Grover [1996] de búsqueda en una secuencia no ordenada de datos. La búsqueda en una base de datos de n registros requiere un promedio de n/2 pasos. Un ordenador cuántico lo haría en √n pasos. Para un millón de registros, un ordenador clásico necesitaría 500.000 pasos y un ordenador cuántico lo haría en 1.000 pasos.

Tien D. Kien [2005] afirma tener un esquema según el cual, en principio, los sistemas cuánticos se podían utilizar para resolver problemas computacionalmente indecidibles en tiempo finito.

La teoría de la información cuántica analiza las posibilidades que ofrecen las leyes de la física cuántica para el almacenamiento, proceso y transmisión de la información.

Se está investigando mucho para crear el primer ordenador cuántico, un ordenador que hace uso de los fenómenos cuánticos (como la superposición y el entrelazamiento) para realizar computaciónes. Las investigaciones se orientan a intentar conseguir una arquitectura compatible con las actuales, es decir, que la computación clásica sea un caso particular de la computación cuántica. Donde ha habido más avances ha sido a nivel teórico.

La llamada “lista de Di Vinzenzo” establece 5 condiciones que debe cumplir un sistema de computación cuántica:
  1. El sistema debe poder inicializarse, es decir, llevarlo a un estado inicial conocido.

  2. Los qubits deben poderse manipular mediante un conjunto universal de puertas lógicas.

  3. El sistema debe mantener su coherencia durante toda computación.

  4. Tras el cálculo, debe poderse leer el estado final correspondiente al resultado.

  5. El sistema debe ser escalable en número de qubits para aumentar su potencia computacional.
Problemas actuales que tiene la computación cuántica son: 1) un qubit no puede ser clonado, copiado o transmitido; 2) al leer el resultado de un cálculo se modifica el estado de superposición de los qubits.

Los algoritmos cuánticos tienen grandes ventajas sobre los clásicos. Los procesos se pueden ejecutar en paralelo sin necesidad de agregar procesadores a la máquina. Una operación realizada sobre un sistema de qubits se realiza simultáneamente sobre todos sus estados. Esto quiere decir que los procesos que requieren tiempo exponencial de proceso se reducen a tiempo lineal.

Según Seth Lloyd [2013], el universo es un ordenador cuántico. Esta explicaría que el universo sea una mezcla de orden y aleatoriedad y que da lugar a sistemas simples y complejos.


MENTAL y la Hipercomputación

En primer lugar, hay que distinguir entre los modelos teóricos (mentales, internos) de computación y los modelos prácticos (físicos, externos), es decir, los modelos implementables mediante dispositivos mecánicos, electrónicos, ópticos, biológicos, cuánticos, etc.

David Deutsch afirma que no tiene sentido hablar de la computabilidad sin un referente físico. Sin embargo, Turing nunca habló de implementación de su máquina teórica. La MT es un dispositivo teórico (o mental) y la tesis Church-Turing es una tesis teórica. Turing nunca mencionó cómo implementar su máquina teórica ni una MTO. Pero los computadores actuales son implementaciones parciales de una MTU, y cada programa que se ejecuta sobre ésta es una implementación de una MT particular.

Por lo tanto, sí tiene sentido plantear modelos teóricos de computación porque siempre hay que seguir el Principio de Causalidad Descendente: desde lo superio (mental) a lo inferior (físico). Este es precisamente el caso de MENTAL, un modelo computacional teórico de tipo universal, donde el límite computacional está regido por las primitivas semánticas universales. Es también una tesis teórica, que generaliza la tesis Church-Turing al contemplar no solo computaciones sino también descripciones. Es también una teoría de un nivel de abstracción superior, conceptualmente superior a la MT universal, que es de puro detalle computacional. Programar un algoritmo con una MT es una tarea compleja porque exige demasiado detalle, con instrucciones de muy bajo nivel.

A nivel computacional algorítmico (independientemente de la implementación), MENTAL es superior a la MTU:

Adenda

La mente cuántica

La teoría de la mente cuántica es una teoría con dos versiones:
  1. Versión fuerte. Postula que la mente funciona según los principios de la física cuántica.

  2. Versión débil. Los fenómenos cuánticos (como la superposición y el entrelazamiento) juegan un papel importante en el funcionamiento de la mente e incluso pueden ser la base de la explicación de la conciencia.
La teoría de la mente cuántica se fundamenta en dos puntos: 1) que la física clásica no es capaz de explicar la mente y la conciencia; 2) que la teoría cuántica es la teoría más fundamental de la materia y que en este nivel profundo debe existir una cierta correspondencia o relación con la mente.

La idea de que la teoría cuántica está relacionada con el funcionamiento de la mente se remonta a Eugene Wigner, que postulaba que la función de onda de una entidad cuántica colapsa debido a la interacción con la conciencia.

Para los investigadores partidarios de la teoría cuántica de la mente, el proceso de un sistema cuántico, que comienza en coherencia y termina en colapso es similar a lo que ocurre en la mente. Múltiples ideas revolotean bajo el umbral de la conciencia (en el subconsciente) y luego una de ellas emerge y se hace consciente.

Según David Bohm, en el universo existe un nivel profundo (el orden implicado) del que surge el mundo físico y el mundo mental (el orden explicado). Mente y materia son manifestaciones o proyecciones del orden implicado en el orden explicado. La conciencia emerge del orden implicado. La comprensión del movimiento en la conciencia (como el escuchar música) se fundamenta también en el orden implicado.

Para Roger Penrose [1996], en su obra “La Nueva Mente del Emperador”, el cerebro puede estar funcionando como un ordenador cuántico. Basándose en el teorema de incompletud de Gödel, afirma que la conciencia no es computable; la mente tiene la capacidad de pensar más allá del modo algorítmico.


Bibliografía